查看原文
其他

人工智能伦理学的一知半解

老曹 喔家ArchiSelf 2021-08-09

读MBA时候的授业导师是周教授,周教授有一门颇受学生们欢迎的课程是“企业伦理学”。时隔多年,课本的内容已经还给了学校,但周老师课上的一些话还隐约记得。

伦理学是关于道德问题的科学,是将道德思想观点的系统化和理论化。解决的基本问题只有一个,就是道德和利益的关系问题。对这一基本问题的答案决定着各种道德体系的原则,也决定着各种道德活动的评判标准。

由人组成的组织在进行经营活动时,在本质上始终存在着伦理问题。所以,企业伦理是企业经营本身的伦理。


AI伦理的提出

在国内,明确提出AI伦理原则的人可能是百度的创始人李彦宏。2018年5月26日,他在贵阳大数据博览会上指出,所有的AI产品、技术都要有大家共同遵循的理念和规则:

  1. AI 的最高原则是安全可控;

  2. AI 的创新愿景是促进人类更加平等地获得技术能力;

  3. AI 存在的价值是教人学习,让人成长,而不是取代人、超越人;


AI的终极理想是为人类带来更多的自由和可能。


同样是2018年,微软发表了《未来计算》(The Future Computed)一书,其中提出了开发人工智能的六大原则:公平、可靠和安全、隐私和保障、包容、透明、责任。

首先是公平性,是指不同区域的人、不同等级的人在AI面前是平等的,不应该有人被歧视。

第二是可靠性和安全性,指的是人工智能使用起来是安全、可靠、不作恶的。

第三是隐私和保障,因为涉及到数据,所以总是会引起个人隐私和数据安全方面的问题。

第四是必须考虑到包容性的道德原则,要考虑到世界上各种功能障碍的人群。

第五是透明度。在过去,人工智能领域突飞猛进最重要的一个技术就是深度学习,深度学习模型的准确度是几乎所有机器学习模型中最高的,但在这里存在一个是否透明的问题。透明度和准确度无法兼得,只能在二者权衡取舍,如果准确度更高,可能要牺牲一定的透明度。

第六是问责。问责制是一个非常有争议的话题,涉及到一个法律或者立法的问题。如果是机器代替人来进行决策、采取行动出现了不好的结果,到底是谁来负责?不能让机器或者人工智能系统当替罪羊,人必须是承担责任的。

实际上,大约在1950年,科幻作家阿西莫夫就提出了 “机器人三定律”:

第一,不伤害定律:机器人不得伤害人类,也不得见人受到伤害而袖手旁观。

第二,服从定律:机器人必须服从人的命令,但不得违反第一定律。

第三,自保定律:机器人必须保护自己,但不得违反一、二定律。

这三条定律在制造机器人的伊始便被嵌入其大脑,永远无法消除。

这些都涉及了一定的伦理问题, 都还都是些概要性原则,较完善地提出AI 伦理与价值的可能是阿西洛马人工智能原则了。

阿西洛马人工智能原则

2017年1月初举行的“Beneficial AI”会议,在此基础上建立起来的“阿西洛马人工智能原则”,名称来自此次会议的地点——美国加州的阿西洛马(Asilomar)市,旨在确保AI为人类利益服务。

西洛马人工智能原则的第6至18条,指出了人工智能的伦理和价值: 

6) 安全性:人工智能系统在它们整个运行过程中应该是安全和可靠的,而且其可应用性的和可行性应当接受验证。

7) 故障透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。

8)司法透明性:任何自动系统参与的司法判决都应提供令人满意的司法解释以被相关领域的专家接受。

9)责任:高级人工智能系统的设计者和建造者,是人工智能使用、误用和行为所产生的道德影响的参与者,有责任和机会去塑造那些道德影响。

10)价值归属:高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致。

11)人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权力、自由和文化多样性的理想相一致。

12)个人隐私:在给予人工智能系统以分析和使用数据的能力时,人们应该拥有权力去访问、管理和控制他们产生的数据。

13)自由和隐私:人工智能在个人数据上的应用不能充许无理由地剥夺人们真实的或人们能感受到的自由。

14)分享利益:人工智能科技应该惠及和服务尽可能多的人。

15) 共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。

16)人类控制:人类应该来选择如何和决定是否让人工智能系统去完成人类选择的目标。

17)非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序,而不是颠覆。

18)人工智能军备竞赛:致命的自动化武器的装备竞赛应该被避免。

共有23条准则,旨在确保人类在新技术出现时能顺利规避其潜在的风险,其突出核心成员有Stephen Hawking和Elon Musk。这个组织专注于由新技术和问题构成的潜在威胁,如人工智能、生物技术、核武器和气候变化等。

AI 伦理学?

实际上,很多伦理问题连人类自身都没有解决,由人类定义的伦理逻辑是否存在漏洞呢?微不足道的漏洞,在人工智能发展到一定程度后却可能成为压倒整个伦理系统的稻草。

对于功利主义者而言,“以人类为中心”将是发展人工智能的重要伦理依据:必要的领域应该限制机器的智能超过人类的智能,即使将来某一天超过了,掌握权还要在人类的手中。但是这种“物我两分”的价值观,本质上是一种“主奴思想”。在人工智能可能超过人类的语境下,可能并不是最好的解决方案。倘若人类真的要在人工智能这条路上走下去,将伦理的判断完全掌握在人类手中或是全权交给“更智慧”的人工智能都是不可行的;将人类自身与人工智能放到统一的维度去审视,方能产生一个相较而言最为完善的人工智能伦理关系。

另外,妥善处理人工智能与人类之间可能产生的情感与羁绊,也是人工智能伦理研究的重要一环。

在国外,MIT媒体实验室(MIT Media Lab)和哈佛大学伯克曼克莱恩互联网及社会研究中心(Berkman Klein Center)共同成为了“人工智能伦理和监管基金”的管理机构,用于解决人工智能所带来的人文及道德问题。

现在,人工智能技术在我们生活的各个方面都变得越来越有用。它们存在于我们的智能手机、社交网络、家庭智能音箱、私人交通工具ーー只要你能想到的,就有人工智能在某处工作。就像任何新兴的技术一样,需要充分利用这些AI技术; 同时确保人工智能在道德和收益上有益于所有人。

人工智能伦理学可能会发展成一门学科,可能要解决以下的一些问题:

  • 人性: 机器如何影响人们的行为和互动?

  • 不平等: 人们如何分配机器创造的财富?

  • 失业: 人们在没有工作后会发生什么?

  • 安全: 人们如何保护AI不受敌人侵扰?

  • ......

在建立AI体系时需要考虑的一些伦理要点

现在,可能需要企业和政府介入并帮助解决这些问题,确定指导行业内的AI伦理原则,最终帮助确保AI技术的安全性和可持续性,能够发挥AI 的潜力。

在建立AI伦理和AI经济时需要考虑的五个要点——

1: 引入人工智能的公司治理和道德框架

对于支持AI伦理的人工智能经济而言,第一步是制定关键原则,以维护该技术的道德使用。企业应起草或修订企业政策,纳入新技术的道德使用立场,概述其业务模式所特有的问责措施。公司还需在组织的各个层面建立明确的期望,使AI伦理成为整个公司讨论中的一部分,从董事会会议和员工绩效评估,到非正式管理和员工签到。

在政府层面,官员应该注意监管机构在指导实施AI伦理方面的作用。决策者应直接与行业专家合作,熟悉人工智能的技术构成、潜在的安全风险和现实世界的应用程序,然后再启动正式的调研方案。

2: 揭开人工智能的神秘面纱和关于其责任的问题

为了揭开人工智能的神秘面纱和围绕问责制,企业应该首先承认实施该技术的任何潜在风险,并制定在部署之前和使用之后进行AI测试的战略。在制定这些策略时,公司应该与外部专家一起探讨人工智能的问责制如何适用于特定的企业目标和客户需求。

政府官员应该认识到在采取措施促进问责制和允许人工智能创新之间的动态平衡。找到这种平衡将有助于保持技术及其用户的诚实和透明度,因为新政策仍在制定之中。

3: 建立人们对企业人工智能的信任

作为一个企业,在使用人工智能时,必须尽可能保持透明。在向利益相关者介绍这一想法时,企业必须分享技术的预期目的以及认为在他们的组织中采用这一想法的重要原因。商业领袖需要通过制定培训和认证方案,明确界定使用人工智能的标准,并应公开说明为界定这些最佳实践而采取的措施,特别是为检验技术缺陷而采取的任何步骤。

政府可以通过寻找机会,让公众参与正在进行的讨论,解决民众关注的问题,并介绍今后的考虑因素,从而建立对企业AI的信任。此外,通过政府来提高民众的认识,政府可以努力减少公众对于在工作和日常生活中使用AI的某些抑制。

4: 将人工智能引入劳动力队伍

为了鼓励将人工智能纳入劳动力队伍,企业应投资于对自动化技术相互作用的工作人员进行再培训。为了最大限度地利用这种培训,公司可以给人力资源部门提供未来技能需求所需的数据,这样他们就能准确地知道什么样的工具可以武装当前和未来的员工队伍,从而取得成功。

5: 需要为年轻学生制定数字教育方案

最后,企业和政府都应该支持针对年轻学生的AI教育项目,帮助确保下一代人能够运用人工智能,理解更广泛的伦理问题。在一个理想的世界里,学生完成教育后,预测围绕人工智能技术的使用的道德框架和原则,他们将理解问责制,并反过来期望公司具有透明度。只要企业、政府和行业参与者共同努力,为AI伦理奠定适当的基础,这一切就可以实现。

AI伦理学,可能还处于一知半解的状态里,都在路上。

参考资料:

  • 周卫中. 企业社会责任的五大认识误区[J]. 企业管理(5):102-104.

  • 王景峰, 周卫中, WANGJing-feng, et al. 伪社会责任的界定与形式转化研究[J]. 技术经济与管理研究, 2015(7):57-61.

  • How Enterprises Can Help Build Ethical AI Strategies By: Chris Preimesberger, eWEEK | October 08, 2018

  • Michael Irving, 陈亮. 阿西洛马23原则使AI更安全和道德[J]. 机器人产业, 13(2):14-17.

  • 阿西洛马人工智能原则——马斯克、戴米斯·哈萨比斯等确认的23个原则,将使AI更安全和道德[J]. 智能机器人(1):28-29.

  • 张雪娇. 阿西莫夫对机器人世界的伦理凝视[D]. 华中师范大学, 2015.

  • 杜静, 黄荣怀, 李政璇, et al. 智能教育时代下人工智能伦理的内涵与建构原则[J]. 电化教育研究, 2019(7).

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存